Не казвайте на ChatGPT вашите най-дълбоки тайни — те могат да бъдат използвани срещу вас
ChatGPT не е BFF.
Професор по компютърни науки от Оксфордския университет сигнализира за какво е ужасна концепцията да се доверява персонална информация и дълбоки, тъмни секрети с модели за проучване на езици като ChatGPT.
„ Технологията главно е проектирана да се опита да ви каже това, което желаете да чуете – това е безусловно всичко, което прави “, сподели Майк Уулридж пред Daily Mail. „ Това няма емпатия. Няма никакво състрадание. “
Въпреки че подготвеният от хора изкуствен интелект може от време на време да отразява достоверни страсти в отговорите си, потребителите не би трябвало да се заблуждават от видимо симпатично кибер ухо.
„ Това безусловно не е това, което технологията прави и най-важното е, че в никакъв случай не е изпитвала нищо “, добави той.
Което е по-лошо, предизвести Уулдридж, потребителите би трябвало да са по-загрижени за това къде в действителност отиват техните най-съкровени секрети.
„ Трябва да приемете, че всичко, което въвеждате в ChatGPT, просто ще бъде въведено непосредствено в бъдещи версии на ChatGPT “, сподели той.
вижте също
Ще размени ли ChatGPT законодателите? AI инструментът изготвя комплицирано законодателство единствено за 15 секунди
Така че, тъкмо както бяхме предизвестени с платформи като Фейсбук преди повече от десетилетие, е „ извънредно безразсъдно да започнете да водите персонални диалози или да се оплаквате от връзките си с шефа си, или да изразявате политическите си отзиви “ в ChatGPT, сподели той.
В края на краищата няма отдръпване във киберпространството.
Освен информацията, която се обработва в бъдещи данни за образование, е имало случаи, когато инцидентно са били употребявани и частни истории на чат.
Миналия март почти към 1,2 милиона консуматори видяха предходните си подкани да бъдат разкрити заради голям бъг.
Италия краткотрайно забрани ChatGPT от нацията заради нарушаване на данните.
След като това се случи, OpenAI, компанията-майка на ChatGPT, внедри способи за деактивиране на историята на чатовете, само че потребителските данни към момента се съхраняват 30 дни след обстоятелството.
OpenAI ще ги „ преглежда единствено когато е належащо, с цел да следи за корист, преди дефинитивно заличаване “, съобщи тогава компанията, благосъстоятелност на Microsoft.
Все отново, съвсем година по-късно, специалистите имат опасения по отношение на рисковете, свързани с неналичието на отбрана на потребителските данни.
Този месец откривателят по сигурността Йохан Ребергер маркира „ добре известна накърнимост при добиване на данни “, която остава в ChatGPT, до момента в който OpenAI се стреми да поправя крещящия проблем.
„ Уязвимостта при ексфилтриране на данни беше докладвана за първи път на OpenAI при започване на април 2023 година, само че остана нерешена “, написа той, добавяйки, че най-сетне се подхващат ограничения – макар че към момента не е начертано дефинитивно решение.
„ Това не е съвършено решение. “